Aktuality  |  Články  |  Recenze
Doporučení  |  Diskuze
Grafické karty a hry  |  Procesory
Storage a RAM
Monitory  |  Ostatní
Akumulátory, EV
Robotika, AI
Průzkum vesmíru
Digimanie  |  TV Freak  |  Svět mobilně
20.10.2009, Petr Štefek, článek
Nvidia nás záhy po uvedení nových Radeonů HD 5000 zahrnula prvními informacemi o chystané architektuře Fermi, která má ambice na to, aby se stala hnacím motorem pro segment herního hardware a také pro segment doposud jen oťukávaného High Performace Computingu.
Bohedy89 | 21.10.20099:03
Hlavní a nejvíce podstatný rozdíl mezi Fermi a Radeony HD5000 vidím v tom, že zatímco nové Radeony jsou pro zájemce už pár týdnů reálně dostupné jako hotové fungující výrobky, tak Fermi je stále jen jakýmsi papírovým drakem, který existuje stále snad jen na papíře a všichni pouze spekulují nad tím kdy nVidia tohoto svého papírového draka převede do reálné podoby.
Takže veškeré současné srovnávání Fermi versus Radeon 5000 se mě osobně jeví jako zcela mimo mísu, protože se srovnává jakýsi vzdušný zámek s reálným existujícím výrobkem.
Odpovědět0  0
Rafan (348) | 20.10.200923:51
Autor článku napsal že cenu odhaduje na 10.000 Kč.No to se nedá ani nazvat optimismem to je už cena z říše snů.Chápu že se autor snažil vnést trochu optimismu ale tady to nebylo zrovna na místě.Když vezmu v potaz že čip Fermi je zhruba o 40% větší než čip ATI 5870 a vezmu li fakt že výtěžnost s velikostí čipu klesá pak při ceně zhruba 8.000 Kč za ATI vychází jako optimistická cena 12.000 ale střízlivější bude spíše 13.000 Kč za kartu.Ano přidaná hodnota využitelnosti jinde tu je ale ta domácího uživatele a to i herního nadšence zřejmě nepřesvědčí takové peníze za kartu dát.Pokud opravdu nebude mít NV velký odbyt jinde může to mít fatální následky.Tohle je situace která hraje pro ATI protože MS se už dohodl s ATI na GPU pro herní konzole nové generace a když si člověk ještě přičte objednávku Aple tak mohou obchoďáci u ATI mít hubu od ucha k uchu jak žolík.
Odpovědět0  0
Petr Štefek (1098) | 21.10.20098:40
Já jsem napsal, že nebude nižší než 10 tisíc korun ... je velmi pravděpodobné, že FERMI bude stát těch 12 tisíc i více, ale také neočekávám jen jednu variantu karty.
Odpovědět0  0
Rafan (348) | 21.10.20098:50
No to je další otázka zda levnější verze budou navrženy a vyráběny a nebo budou jen deaktivovány vadné jednotky plnotučného čipu­(já tipuji to druhé­)Jinak ta cena plnotučné verze by byla ještě vyšší.Pak je tu otázka kolik si NV za ty ořezané řekne a to už se opravdu nedá ani odhadnout.
Odpovědět0  0
Petr Štefek (1098) | 21.10.20099:04
Každopádně takový Radeon HD 5850 za něco málo přes pět s FERMI vymete v poměru užitné hodnoty ku ceně podlahu. Ale uvidíme, třeba Nvidia překvapí.
Odpovědět0  0
bigless (91) | 20.10.200920:22
S postupem doby jak čtu komenty k recenzím­/článkům na téma ATI­/Nvidia ­- ATI­/Intel produkty, mám pocit, že u některých čtenářů se projevuje téměř fanatismus toho či onoho výrobce.
Přitom pokud se zamyslíme a představíme si, že by tu pro Vaši protěžovanou společnost neexistovala silná konkurence, komponenty by jste si mohli kupovat klidně za 2­-3 násobnou cenu. V roli rozumneho zákazníka je zakladem být nestranný a počkat si na to co výrobci ­(ne jeden výrobce­) nabídnou a dle nároků toho využít.. Kolikrát mě ty nesmyslné komenty přivádějí k výbuchům smíchu.. Tohle není sport, každý zde platí za svou štastnou či neštastnou volbu :)
Odpovědět0  0
vindicator5 (10) | 20.10.200920:26
Téma ATI, nVidia, Intel, AMD na běžných serverech nemá smysl vůbec číst. Kdejaký Franta z dolní horní má pocit že tomu rozumí a k tomu je ještě silně afektován sympatiemi k jedné z těchto korporací.

Méně příspěvků na SHW znamená, že tito idioti chodí jinam :­-)
Odpovědět0  0
Tomcat2 (645) | 20.10.200923:55
tomuhle taky moc nerozumim...ja vybiram vzdycky dle aktualniho stavu...kdybych si kupoval procesor pred rokem ci rokem a pul, tak by to byl urcite Intel Core2Duo, novy PC jsem ale skladal na jare a to zase bylo nejlepsi v pomeru cena a vykon koupit AMD Phenom II X4 955BE, coz jsem tak ucinil...kdybych kupoval procesor ted, tak bych urcite vzal Core i5...to same plati o grafikach...nez vysla 4800 rada, tak ATI nemelo smysl kupovat, pote byla jasna volba grafika z teto rady, do PC jsem se rozmyslel mezi 4890 a 275GTX, nakonec jsem sahnul po nVidii kvuli o neco vyssimu vykonu, byt absenci DX10.1, ted bych ale urcite koupil 5870...proste kazdy chvilku taha pilku a reci typu ATI­/AMD je lepsi­/horsi nez nVidia­/Intel je uplne zcestne rikat obecne, protoze je to pravda jen urcity casovy usek...
Odpovědět0  0
z.k (1) | 20.10.200913:00
Pěkné počtení ­(po tom, co na několika konkurenčních magazínech vyšly vždy více či méně tendenčně zaměřené články­). Děkuji

PS: a Váš článek na téma PhysX by určitě nejen mne zajímal
Odpovědět0  0
MadMaxII (55) | 20.10.200912:20
Dobry den p. Stefek, docela zajimave srovnani i kdyz jen v teoretickem benchi Sandra je na CDR.

Na predstavu o tom jak se zlepsilo jadro RV870 oproti RV770 to staci­(mozna byste mohl udelat nekolik svych testu a clanek doplnit­), a take je zajimave jaky vykon tam podava G200 generace.
Muj zaver je ze to nV hodne preji ten uspech ale evidentne to nebude mit lehke ani na poli GPGPU uz jen proto ze jeste nezname potencial MSoftiho DC­(Direct Compute­) ovsem na druhou stranu mocnost C++ to je snad poprve kdy nVidia spravne vsedila na pristup ke standartum a doufam ze podobnym zpusobem nakonec nalozi s PhysX, to co ted predvadi je Harakiri PhysxXu...
Odpovědět0  0
vindicator5 (10) | 20.10.200912:25
Problém je, že Sandra je teoretický nesmysl, u kterého bylo již v minulosti dokázáno u procesorů, že ­"měří blbě­". Když se kouknete na reálnou aplikaci typu Folding@home, vypadá to s Radeony dosti tragicky.
Odpovědět0  0
Petr Štefek (1098) | 20.10.200912:40
http:­/­/images.anandtech.com­/graphs­/rv870_092209122344­/20136.png

Sandra je nesmysl, ale hodně serverů jej používá, přesto, že už nemá a neměl s realitou nic společného, ale vychazí zajímavá číselka, a proto je stále in. Graf výše zase ukazuje náskok DXCompute ... každá architektura má holt své:­)

Pokud se týká PhysX, tak máte pravdu, ale Nvidia dobře ví, že vše skončí jako rozhraní akcelerované CPU. Četl jsem harakiri článek u jednoho nejmenovaného českého serveru, kde autor měl tendeci prorokovat PhysX zářnou budoucnost a majitelům Radeonů trapný konec, ale nechápal souvislosti nebo ­"cross­-platfrom­" kompatibilitu výsledek byl na zlomení v křesle ... skoro mě to svádí napsat o PhysX něco znova.
Odpovědět0  0
burborka | 20.10.200917:14
Prosím napište. Jinak děkuji za výživný článek.
Odpovědět0  0
Logout (91) | 20.10.200912:42
A naopak v lámání hesel exceluje. NV a Ati maj prostě rozdílný architektury a tak se jednoznačnej benchmark hledá těžko...
Odpovědět0  0
bijek (16) | 20.10.200918:20
Naopak, tragicky to vypadá u GeForce. Ve výpočtech pod BOINC low­-endové radeony zcelá drtí high­-end Nvidie. Například, v projektu Collatz Conjecture, kde není potřeba dovojité přesnosti to ještě s NVidii vypadá celkem dobře. Jednojádrový HD 5870 je tam pouze 2x výkonější než dvujádrová GTX 295. V těchto projektech poskytují GPU asi 20­-40x větší výkon než čtyřjádrové procesory. Zato v projektu MilkyWay@home kde je potřeba dvojité přesnosti karty NVidie zcela propadají. Taková GTX 295 je zhruba 2x výkonější než procesor. Zatímco Radeon HD 5870 si udržuje svůj 40­-ti násobek. V tomto projektu HD 4770 za 2300 Kč zcela vypráší kožich GTX 295 za 10.000 Kč. A to ještě nezmiňuji spotřebu, která taky výrazně mluví ve prospěch Radeonu.
Odpovědět0  0
vindicator5 (10) | 20.10.200919:19
BOINC není Folding@home, že? :­-­) Zřejmě jste nepochopil, že pravdu můžeme mít oba, protože záleží na projektu, použitém výpočetním scénáři i kvalitě vlastního klienta.
Odpovědět0  0
bigless (91) | 20.10.200920:10
Doporučuji si přečíst pár článků :­) Citace:
"In comparison, Gainward­'s GeForce GTX 275 returns between 5400 and 7100 PPD ­- depending on how complex the units are. Direct competitors to Radeon HD 5870, GeForce GTX 285 and GTX 295 are simply leaving HD 5870 in the dust.

We asked Dave Baumann for explanation on this unpleasant surprise at2:17AM Croatian time, and in a brief discussion we learned that theunderlying problem is the fact that ATI client for Folding@home isbased on Brook+. As we wrote ages ago, Brook+ is pretty much ­"put outto pasture­", i.e. the support for it has been killed long time ago. ­"

Pro ty kteří angličtinou příliš nevládnou, ve zkratce: ATI klient pro Folding@home byl před dlouhou dobou poslán k ledu..
Odpovědět0  0
vindicator5 (10) | 20.10.200920:24
Ano. O tomto stavu vím, konzultoval jsem ho s jedním vývojářem z ATI. Dokud ale nepředvedou něco na OpenCL, jsou ta ­(zatím­) jen řeči.

PS: když něco citujete, nebylo by od věci zdroj odkázat. Jistě je zajímavý a stojí za přečtení :­-)
Odpovědět0  0
bigless (91) | 20.10.200920:34
Odpovědět0  0
rrastik (6) | 20.10.200922:38
Tieto blbe reci o folding naozaj nemam rad. Po prve, Nvidia rada ukazuje co sa tyka gpgpu ciselka z folding,ale uz nepovie ze na jej gpu je zakazane pouzivat niektore instrukcie ktore ich gpu spomaluju a ze ulohy musia byt specialne vytvorene pre ich gpu. Z hladiska efektivity je na tom vo folding@home najlepsie procesor CELL.

Ak vas zaujimaju vedecke vypocty na gpu tak sa pozrite na projekt milkyway@home. Tu istu ulohu dokaze napr. ATI HD 4870 vypocitat 2.5 krat rychlejsie ako Nvidia GTX 285. Bohuzial pre Nvidiu musia jej gpu spracovavat aj instrukcie ktore musi spracovat aj ATI a ktore ju napr. vo foldingu brzdia.
Odpovědět0  0
vindicator5 (10) | 21.10.20099:51
Děkuji za tip. Určitě se na to podívám.
Odpovědět0  0
vindicator5 (10) | 20.10.200911:22
Neustále opakovaný nesmysl, který si zřejmě všichni oblíbili. Architektura ATI není supersklaární, ale VLIW. Superskalární architektura využívá HW dekodování závislostí mezi instrukcemi pakticky on­-fly. Toho jsou schopny pouze chipy nVidie a je to také důvod, proč jsou větší.

VLIW architektura Radeonů vyžaduje, aby jim byly instrukce předány již v předžvýkaném stavu, což je třeba zajistit compilerem. Protože chip nemusí řešit závislosti mezi instrukcemi, může být menší a levnější, ale tento přístup klade vysoké nároky na compiler a použitý scénář. Například při čistě skalární povaze úlohy bude mít VLIW architektura Radeonů problémy s efektivitou.

Existuje jistá minoritní skupina definic, které architekturu VLIW zahrnují do pojmu superskalární. Protože je tento přístup výrazně menšinový, bylo by záhodno, když už chceme používat termín superskalární, nazývat Radeony jako VLIW static superscalar.
Odpovědět0  0
Petr Štefek (1098) | 20.10.200912:05
Ano, máte pravdu, proto také inženýři ATI už od R600 ­(které ale je do značné míry odlišné od současné architektury­) použivají termín VLIW superscalar architecture. Bohužel RV7x­/8x je takový ryborak, něco sedí na VLIW ­(compiler­) a něco zase naopak na supersklární architekturu ­(způsob a flexibilita zpracovávání instrukcí­). Někde jsem na to četl zajímavý článek od Erica Demerse ... nicméně tohle už je mimo tento magazín a mé znalosti. Každopádně máte pravdu, že označení architektury superscalar je spíše marketingové ­(Nvidia scalar­).
Odpovědět0  0
vindicator5 (10) | 20.10.200912:14
Zřejmě máte na mysli tento rozhovor s Ericem Demersem:

http:­/­/www.rage3d.com­/interviews­/atichats­/undertheihs­/

kde právě opravuje novináře, že správné označení je VLIW nikoli superskalární.

Bohužel Marketingové oddělení ATI vypouští tyhle hovadiny, protože když nVidia má skalární architekturu, tak ATI přece musí mít superskalární,aby se to lépe prodávalo.

Přitom je docela zajímavé, že jako celek se k definici pojmu ­"superskalární­" blíží více chip nVidie než ATI.
Odpovědět0  0
Petr Štefek (1098) | 20.10.200912:31
Ne ne, článek byl pro tištěný časopis ­(odborný­), byl na poněkud jiné úrovni, než tento .. statické a dynamické architektury, kompilátor, 5D procesor, dispatch jednotky atd. V čem je to podobné VLIW a v čem naopak superscalar. Pochopil jsem málo nicméně to nebylo jen o tom, že procesory zvládající 5 instrukcí za takt a šmitec.
Odpovědět0  0
JoHnY2 (45) | 20.10.200913:04
Rad bych se zeptal na dve veci. Nedavno jsem zahlidnul info o tom, ze by RV970 mela­/mohla mit MIMD jednotky. Chapu to spravne tak, ze by stavajici 5D procesory zvladly zpracovat kazdej vektor ­(vstupni data­) vic instrukcema naraz? Mate nejakou predstavu jak by to zacloumalo s vlastnostma GPU v provnani s RV870?

PS: Nejsem odbornik na procesory. Pokud blabolim, tak se omluvam :)
Odpovědět0  0
vindicator5 (10) | 20.10.200913:16
MIMD má být především nVidia Fermi.
Odpovědět0  0
bigless (91) | 20.10.200919:56
Hovadina to není. Tyto dva přístupy spolu opravdu úzce souvisí a VLIW je mnoha vývojáři považován za odnož ­"statické­" superskalární architektury. Oba přístupy mají také své limitující faktory. Vzhledem k tomu, že se obě společnosti pohybují v tržním hospodářství, považuji v tuto chvíli řešení ATI za více elegantní a efektivní nehledě na již zmíněný prostor pro manipulaci s cenou v souvislosti s nižšími výrobními náklady. Ukažte mi marketingové oddělení, které nevyužije každé příležitosti v rámci jistých mezí ke zvýšení atraktivity. A slovo ­"superskalární­" pro danou skupinu atraktivní je i když se skutečnost pravdě jen vzdáleně blíží..
Odpovědět0  0
vindicator5 (10) | 20.10.200920:21
O efektivitě ATI řešení můžeme mluvit až v momentě, kdy budou běžně rozšířená GPGPU řešení a volba VLIW se ukáže jako nijak nelimitující.

Do té doby můžeme jen spekulovat a jediné co je zřejmé je fakt, že pro herní grafiku ATI zvolila cenu s lepším poměrem cena­/výkon. Zda je tato cesta také dostatečně univerzální se teprve ukáže.
Odpovědět0  0
bigless (91) | 20.10.200920:32
Ve chvíli, kdy GPGPU začne zažívat rozmach, obě společnosti na to budou připraveny. Myslím, že Fermi je jen nafouklá marketingová bublina a osobně ji ignoruji. :­) Sám mám v PC kartu Nvidie, ale v roli zákazníka jsem odpůrcem her na vlastním písečku a pokusech o vytěsnění konkurence. A toto je společně s Psyhx ta samá písnička.
Odpovědět0  0
vindicator5 (10) | 20.10.200921:24
Otázkou je, zda by bez těchto kroků nVidie byl nějký rychlý vývoj kupředu. Mnoho z kroků v posledních letech bylo v provokováno existencí nějakého nVidia­-only řešení! Bez něj bychom takym mohli sedět pořád na místě, protože konkurenci by nic netlačilo kupředu, kromě obecného zvyšování výkonu.
Odpovědět0  0
bigless (91) | 20.10.200921:44
Samozřejmě. Něco pravdy na tom je. Pokud pomineme fakt, že téměř žádný z těchto kroků nebyl inspirován hlavami Nvidie, ale licencemi které odkoupila spolu s pohlcenými společnostmi. 3dfx a SLI.. Ageia a PhysX.. Mental Images ala raytracing.. Tam kde jsou peníze je i možnost riskovat..v této oblasti je AMD­/ATI v pozadí a přinejmenším ještě dlouho bude..
Odpovědět0  0
efender | 20.10.20097:29
Už je mi z toho smutno,protože není článek o Nvidii kde autor nepsal o ATi.Tak buď čtu o ATi ne o Nvidii.Pořád nějaké srovnávání těchto dvou výrobců a to už i bez testů.USA vs. Kanada co?
Odpovědět0  0
Petr Štefek (1098) | 20.10.20099:44
Ono to spolu nesouvisí?:D
Odpovědět0  0
ef3nder | 20.10.200914:25
Měl by jste si odpovědět sám,píšete článek o Nvidia a ne o ATi a stejně o ATi píšete.
Odpovědět0  0
MadMaxII (55) | 20.10.200912:13
Nezlobte se ale s cim ma autor srovnavat nVidii, s jejich vlastnimi ­"ukazkami­" nebo je snad nesrovnavat vubec a malovat si tak ­"vzdusne zamky­"?
Zacnete to brat vice s nadhledem, svet neni dokonaly a vsichni si to musime porad pripominat a jednie srovnavani ukazuje jake jsou veci doopravdy...;­)

PS: Uz je to USA vs. USA, Ati vlastni americka AMD:o)
Odpovědět0  0
Krteczeq (5) | 20.10.20091:05
Pane Štefek, chápu že když není die­-shot RV870 k dispozici, nahradí se pro ilustraci jiným, ale vydávat die­-shot G200 za RV870 je poněkud nešťastné :D
Odpovědět0  0
Smeli (100) | 20.10.20099:50
Musím se připojit, navíc přijít s tímto článkem po tom, jak se zvedla vlna spekulací o fermi... Nevím no.
Odpovědět0  0
Petr Štefek (1098) | 20.10.20099:55
Vy jste někdy jak malé děcka a arbitři standardů morálky dohromady ... to, že se spekuluje o tom, jestli Nvidia má funkční karty nebo ne, nic nemění na tom, že Fermi bude, tak rpoč o tom nenapsat.

P.S. ­- Ilustrace opravena
Odpovědět0  0
Smeli (100) | 20.10.200911:17
Děkuji, ale to stále není die shot Cypresse, tohle je jen jakási koláž různých die shotů ­(RV770, Phenom, někde byl obrázek kde to bylo rozpitvané, jen to nemůžu teď najít­).
Odpovědět0  0
Petr Štefek (1098) | 20.10.200912:06
Nic jiného není a 99,9% populace to nepozná:)
Odpovědět0  0
snajprik, | 21.10.20099:47
nj ale prave na tieto stranky chodi to 0,1% populace co to pozna :­)
Inak to fermi vyzera užasne, len to ma jeden hačik, niesu žiadne realne čipi fermi, žiadne programy ktore to teoreticky vedeli využiť. Jedine čo bolo prezentovane je SEN nvidie čo by chcela v buducnosti postaviť, ale za kolko rokov ten sen sa premeni v skutočnosť to nik nevie.
A ešte taka jedna poznamka v tom sne nvidia je sama, tou cestou neide ani intel AMD IBM vlasne nikto iba nvidia, takže s bohatou softwarovou podporou fermi velmi počitať nemožeme v buducnosti. A ked ten sen sa nvidii podari tak to využiju zopar priemiselnich firiem ktory si zaplatia programatoroch a postavia pre seba profesionalny program.
Odpovědět0  0
Petr Štefek (1098) | 21.10.200910:03
Jasně, proto taky na to narážím ve článku, ale nechtěl jsem úplně spekulovat na téma, že to vůbec neexistuje, aby mě někdo neobviňoval ze zaujatosti vůči Nvidii. Nicméně, jsou důvodná podezření, že Nvidia funkční čipy a karty zatím nemá.
Odpovědět0  0
Zajímá Vás tato diskuze? Začněte ji sledovat a když přibude nový komentář, pošleme Vám e-mail.
 
Nový komentář k článku
Pro přidání komentáře se přihlaste (vpravo nahoře). Pokud nemáte profil, zaregistrujte se pro využívání dalších funkcí.